三星 TRM 论文:少即是多,用递归替代深度,挑战 Transformer 范式
大数据文摘整理三星SAIL蒙特利尔实验室的研究人员近日发布论文《Less is More: Recursive Reasoning with Tiny Networks》,提出一种名为Tiny Recursive Model(TRM)的新型递归推理架构。
论文 transformer 递归 trm 三星trm 2025-11-04 02:03 4
大数据文摘整理三星SAIL蒙特利尔实验室的研究人员近日发布论文《Less is More: Recursive Reasoning with Tiny Networks》,提出一种名为Tiny Recursive Model(TRM)的新型递归推理架构。
论文 transformer 递归 trm 三星trm 2025-11-04 02:03 4
当大家还在卷 100B、1000B 的时候,三星蒙特利尔研究院把“大模型”三个字直接拍扁——两层 Transformer、7.3×10⁷ 参数,循环 16 圈,就把 ARC-AGI-1 榜单拉到 45%,比 6710 亿参数的 DeepSeek-R1 高出近
模型 推理 transformer 工厂 trm 2025-10-13 08:10 5